home *** CD-ROM | disk | FTP | other *** search
/ Danny Amor's Online Library / Danny Amor's Online Library - Volume 1.iso / html / faqs / faq / net-privacy / part1 next >
Text File  |  1995-07-25  |  61KB  |  1,289 lines

  1. Subject: Privacy & Anonymity on the Internet FAQ (1 of 3)
  2. Newsgroups: sci.crypt,comp.society.privacy,alt.privacy,sci.answers,comp.answers,alt.answers,news.answers
  3. From: ld231782@longs.lance.colostate.edu (L. Detweiler)
  4. Date: 21 May 1994 10:06:32 GMT
  5.  
  6. Archive-name: net-privacy/part1
  7. Last-modified: 1993/10/11
  8. Version: 3.2
  9.  
  10.  
  11.  
  12. IDENTITY, PRIVACY, and ANONYMITY on the INTERNET
  13. ================================================
  14.  
  15. (c) Copyright 1993 L. Detweiler.  Not for commercial use except by
  16.   permission from author, otherwise may be freely copied.  Not to be
  17.   altered.  Please credit if quoted.
  18.  
  19. SUMMARY
  20. =======
  21.  
  22. Information on email and account privacy, anonymous mailing and 
  23. posting, encryption, and other privacy and rights issues associated
  24. with use of the Internet and global networks in general.
  25.  
  26. (Search for <#.#> for exact section. Search for '_' (underline) for
  27. next section.)
  28.  
  29. PART 1
  30. ====== (this file)
  31.  
  32.  
  33. Identity
  34. --------
  35. <1.1> What is `identity' on the internet?
  36. <1.2> Why is identity (un)important on the internet?
  37. <1.3> How does my email address (not) identify me and my background?
  38. <1.4> How can I find out more about somebody from their email address?
  39. <1.5> How do I provide more/less information to others on my identity?
  40. <1.6> Why is identification (un)stable on the internet? 
  41. <1.7> What is the future of identification on the internet?
  42.  
  43. Privacy
  44. -------
  45. <2.1> What is `privacy' on the internet?
  46. <2.2> Why is privacy (un)important on the internet?
  47. <2.3> How (in)secure are internet networks?
  48. <2.4> How (in)secure is my account?
  49. <2.5> How (in)secure are my files and directories?
  50. <2.6> How (in)secure is X Windows?
  51. <2.7> How (in)secure is my email?
  52. <2.8> How am I (not) liable for my email and postings?
  53. <2.9> Who is my sysadmin?  What does s/he know about me?
  54. <2.10> Why is privacy (un)stable on the internet?
  55. <2.11> What is the future of privacy on the internet?
  56.  
  57. Anonymity
  58. ---------
  59. <3.1> What is `anonymity' on the internet?
  60. <3.2> Why is `anonymity' (un)important on the internet?
  61. <3.3> How can anonymity be protected on the internet?
  62. <3.4> What is `anonymous mail'?
  63. <3.5> What is `anonymous posting'?
  64. <3.6> Why is anonymity (un)stable on the internet?
  65. <3.7> What is the future of anonymity on the internet?
  66.  
  67. PART 2
  68. ====== (next file)
  69.  
  70. Issues
  71. ------
  72.  
  73. <4.1> What is the Electronic Frontier Foundation (EFF)?
  74. <4.2> Who are Computer Professionals for Social Responsibility (CPSR)?
  75. <4.3> What was `Operation Sundevil' and the Steve Jackson Game case?
  76. <4.4> What is Integrated Services Digital Network (ISDN)?
  77. <4.5> What is the National Research and Education Network (NREN)?
  78. <4.6> What is the FBI's proposed Digital Telephony Act?
  79. <4.7> What is U.S. policy on freedom/restriction of strong encryption?
  80. <4.8> What other U.S. legislation is related to privacy?
  81. <4.9> What are references on rights in cyberspace?
  82. <4.10> What is the Computers and Academic Freedom (CAF) archive?
  83. <4.11> What is the Conference on Freedom and Privacy (CFP)?
  84. <4.12> What is the NIST computer security bulletin board?
  85.  
  86. Clipper
  87. -------
  88.  
  89. <5.1> What is the Clipper Chip Initiative?
  90. <5.2> How does Clipper blunt `cryptography's dual-edge sword'?
  91. <5.3> Why are technical details of the Clipper chip being kept secret?
  92. <5.4> Who was consulted in the development of the Clipper chip?
  93. <5.5> How is commerical use/export of Clipper chips regulated?
  94. <5.6> What are references on the Clipper Chip?
  95. <5.7> What are compliments/criticisms of the Clipper chip?
  96. <5.8> What are compliments/criticisms of the Clipper Initiative?
  97. <5.9> What are compliments/criticisms of the Clipper announcement?
  98. <5.10> Where does Clipper fit in U.S. cryptographic technology policy?
  99.  
  100. PART 3
  101. ====== (last file)
  102.  
  103. Resources
  104. ---------
  105.  
  106. <6.1> What UNIX programs are related to privacy?
  107. <6.2> How can I learn about or use cryptography?
  108. <6.3> What is the cypherpunks mailing list?
  109. <6.4> What are some privacy-related newsgroups?  FAQs?
  110. <6.5> What is internet Privacy Enhanced Mail (PEM)?
  111. <6.6> What are other Request For Comments (RFCs) related to privacy?
  112. <6.7> How can I run an anonymous remailer?
  113. <6.8> What are references on privacy in email?
  114. <6.9> What are some email, Usenet, and internet use policies?
  115.  
  116. Miscellaneous
  117. -------------
  118.  
  119. <7.1> What is ``digital cash''?
  120. <7.2> What is a ``hacker'' or ``cracker''?
  121. <7.3> What is a ``cypherpunk''?
  122. <7.4> What is `steganography' and anonymous pools?
  123. <7.5> What is `security through obscurity'?
  124. <7.6> What are `identity daemons'?
  125. <7.7> What standards are needed to guard electronic privacy?
  126.  
  127. Footnotes
  128. ---------
  129.  
  130. <8.1> What is the background behind the Internet?
  131. <8.2> How is Internet `anarchy' like the English language?
  132. <8.3> Most Wanted list
  133. <8.4> Change history
  134.  
  135. * * *
  136.  
  137.  
  138. IDENTITY
  139. ========
  140.  
  141. _____
  142. <1.1> What is `identity' on the internet?
  143.  
  144.   Generally, today people's `identity' on the internet is primarily
  145.   determined by their email address in the sense that this is their
  146.   most unchanging 'face' in the electronic realm.   This is your
  147.   login name qualified by the complete address domain information,
  148.   for example ``ld231782@longs.lance.colostate.edu''.  People see
  149.   this address when receiving mail or reading USENET posts from you
  150.   and in other situations where programs record usage.  Some obsolete
  151.   forms of addresses (such as BITNET) still persist.
  152.  
  153.   In email messages, additional information on the path that a message
  154.   takes is prepended to the message received by the recipient.  This
  155.   information identifies the chain of hosts involved in the
  156.   transmission and is a very accurate trace of its origination.  This
  157.   type of identify-and-forward protocol is also used in the USENET
  158.   protocol to a lesser extent.  Forging these fields requires
  159.   corrupted mailing software at sites involved in the forwarding and
  160.   is very uncommon.  Not so uncommon is forging the chain at the
  161.   origination point, so that all initial sites in the list are faked
  162.   at the time the message is created.  Tracing these messages can be
  163.   difficult or impossible when the initial faked fields are names of
  164.   real machines and represent real transfer routes.
  165.  
  166. _____
  167. <1.2> Why is identity (un)important on the internet?
  168.  
  169.   The concept of identity is closely intertwined with communication,
  170.   privacy, and security, which in turn are all critical aspects of
  171.   computer networks. For example, the convenience of communication
  172.   afforded by email would be impossible without conventions for
  173.   identification.  But there are many potential abuses of identity
  174.   possible that can have very severe consequences, with massive
  175.   computer networks at the forefront of the issue, which can
  176.   potentially either exacerbate or solve these problems.
  177.  
  178.   Verifying that an identity is correct is called `authentication',
  179.   and one classic example of the problems associated with it is
  180.   H.G. Well's ``War of the Worlds'' science fiction story adapted to 
  181.   a radio broadcast that fooled segments of the population into 
  182.   thinking that an alien invasion was in progress.  Hoaxes of this 
  183.   order are not uncommon on Usenet and forged identities makes them 
  184.   more insidious.  People and their reputations can be assaulted by 
  185.   forgery.
  186.  
  187.   However, the fluidity of identity on the internet is for some one of
  188.   its most attractive features. Identity is just as useful as it is
  189.   harmful.  A professor might carefully explain a topic until he
  190.   finds he is talking to an undergraduate.  A person of a particular
  191.   occupation may be able to converse with others who might normally
  192.   shun him.  Some prejudices are erased, but, on the other hand, many
  193.   prejudices are useful!  A scientist might argue he can better
  194.   evaluate the findings of a paper as a reviewer if he knows more
  195.   about the authors.  Likewise, he may be more likely to reject it
  196.   based on unfair or irrelevant criteria.  On the other side of the
  197.   connection, the author may find identities of reviewers useful in
  198.   exerting pressure for acceptance.
  199.  
  200.   Identity is especially crucial in establishing and regulating
  201.   `credit' (not necessarily financial) and `ownership' and `usage'. 
  202.   Many functions in society demand reliable and accurate techniques
  203.   for identification. Heavy reliance will be placed on digital
  204.   authentication as global economies become increasingly electronic. 
  205.   Many government functions and services are based on identification,
  206.   and law enforcement frequently hinges on it.  Hence, employees of
  207.   many government organizations push toward stronger identification
  208.   structures.  But when does identification invade privacy?
  209.  
  210.   The growth of the internet is provoking social forces of massive
  211.   proportions. Decisions made now on issues of identity will affect
  212.   many future users, especially as the network becomes increasingly
  213.   global, universal, widespread, and entrenched; and the positive or
  214.   adverse affects of these actions, intended and inadvertent, will
  215.   literally be magnified exponentially.
  216.  
  217. _____
  218. <1.3> How does my email address (not) identify me and my background?
  219.  
  220.   Your email address may contain information that influences people's
  221.   perceptions of your background.  The address may `identify' you as
  222.   from a department at a particular university, an employee at a
  223.   company, or a government worker.  It may contain your last name,
  224.   initials, or cryptic identification codes independent of both.  In
  225.   the US some are based on parts of social security numbers.  Others
  226.   are in the form 'u2338' where the number is incremented in the
  227.   order that new users are added to the system.
  228.  
  229.   Standard internet addresses also can contain information on your
  230.   broad geographical location or nationhood.  However, none of this
  231.   information is guaranteed to be correct or be there at all.  The
  232.   fields in the domain qualification of the username are based on
  233.   rather arbitrary organization, such as (mostly invisible) network
  234.   cabling distributions.  The only point to make is that early fields
  235.   in the address are more specific (such as specific computer names
  236.   or local networks) and the later ones the most general (such as
  237.   continental domains).  Typically the first field is the name of the
  238.   computer receiving mail.
  239.  
  240.   Gleaning information from the email address alone is sometimes an
  241.   inspired art or an inconsistent and futile exercise.  (For more
  242.   information, see the FAQs on email addresses and known
  243.   geographical distributions.)  However, UNIX utilities exist to aid 
  244.   in the quest (see the question on this).
  245.  
  246.   Common Suffixes
  247.   ---------------
  248.  
  249.   .us    United States
  250.   .uk    United Kingdom
  251.   .ca    Canada
  252.   .fi    Finland
  253.   .au    Australia
  254.  
  255.   .edu   university or college
  256.   .com   commercial organization
  257.   .org   'other' (e.g. nonprofit organization)
  258.   .gov   government
  259.   .mil   military site
  260.  
  261. _____
  262. <1.4> How can I find out more about somebody with a given email address?
  263.  
  264.   One simple way is to send email to that address, asking.  Another
  265.   way is to send mail to the postmaster at that address (i.e.
  266.   postmaster@address), although the postmaster's job is more to help
  267.   find user ID's of particular people given their real name and solve
  268.   mail routing problems.  The sysadmin (i.e. `root@address') may also
  269.   be able to supply information.  Users with related email address
  270.   may have information.  However, all of these methods rely on the
  271.   time and patience of others so use them minimally.
  272.  
  273.   One of the most basic tools for determining identity over the
  274.   internet is the UNIX utility 'finger'.  The basic syntax is:
  275.  
  276.     finger user@here.there.everywhere
  277.  
  278.   This utility uses communication protocols to query the computer
  279.   named in the address for information on the user named.  The
  280.   response is generated completely by the receiving computer and may
  281.   be in any format.  Possible responses are as follows:
  282.  
  283.   - A message `unknown host' meaning some aspect of the address is
  284.     incorrect, two lines with no information and '???'.
  285.   
  286.   - A message `In real life: ???' in which case the receiving computer
  287.     could not find any kind of a match on the username. The finger
  288.     utility may return this response in other situations.
  289.   
  290.   - A listing of information associated with multiple users. Some
  291.     computers will search only for matching user IDs, others will
  292.     attempt to find the username you specified as a substring of all
  293.     actual full names of users kept in a local database.
  294.   
  295.   At some sites `finger' can be used to get a list of all users on the
  296.   system with a `finger @address'.  In general this is often
  297.   considered weak security, however, because `attackers' know valid
  298.   user ID's to `crack' passwords.
  299.  
  300.   More information on the fields returned by `finger' is given below. 
  301.   More information on `finger' and locating people's email addresses 
  302.   is given in the email FAQ (such as the WHOIS lookup utility).  Just
  303.   as you can use these means to find out about others, they can use 
  304.   them to find out about you.  You can `finger' yourself to find out
  305.   what is publicly reported by your UNIX system about you.  Be
  306.   careful when modifying `finger' data; virtually anyone with
  307.   internet access worldwide can query this information.  In one
  308.   famous case, the New York Times writer J. Markoff uncovered the
  309.   identity of R. Morris, author of the Internet Worm, through the
  310.   use of `finger' after an anonymous caller slipped by revealing his
  311.   initials which were also his login ID.  See the book Cyberpunk by
  312.   K. Hafner and J. Markoff.
  313.  
  314. _____
  315. <1.5> How do I provide more/less information to others on my identity?
  316.  
  317.   The public information of your identity and account is mostly
  318.   available though the UNIX utility `finger' described above. 
  319.   
  320.   - You have control over most of this information with the utility
  321.     `chfn', the specifics vary between sites (on some systems use
  322.     `passwd -f').
  323.    
  324.   - You can provide unlimited information in the .plan file which is
  325.     copied directly to the destination during the fingering. 
  326.     
  327.   - A technique that works at some sites allows you to find out who is
  328.     'finger'ing you and even to vary the .plan file sent to them.
  329.  
  330.   - Your signature is determined by the environment variable SIGNATURE
  331.     
  332.   - USENET signatures are conventionally stored in the .signature file
  333.     in your home directory.
  334.     
  335.   Providing less information on your online identity is more difficult
  336.   and involved.  One approach is to ask your system adminstrator to
  337.   change or delete information about you (such as your full name). 
  338.   You may be able to obtain access on a public account or one from
  339.   someone unrelated to you personally.  You may be able to remotely
  340.   login (via modem or otherwise) to computers that you are not
  341.   physically near.  These are tactics for hiding or masking your
  342.   online activities but nothing is foolproof.  Consult man pages on
  343.   the `chmod' command and the default file mode.  Generally, files on
  344.   a shared system have good safeguards within the user pool but very
  345.   little protection is possible from corrupt system administrators.
  346.  
  347.   To mask your identity in email or on USENET you can use different
  348.   accounts. More untraceable are new `anonymous posting' and
  349.   remailing services that are very recently being established.  See
  350.   the sections on that topic.
  351.  
  352.   Experienced UNIX users can install programs that vary the .plan
  353.   file based on `who is calling' or even determine the ID of the
  354.   `caller' in some configurations. See the files on 
  355.   quartz.rutgers.edu:
  356.  
  357.     backfinger.tar.gz, fing-plan.c.gz, planinit*.gz: Programs to do
  358.       tricks with UNIX finger; log incoing fingers, etc.
  359.  
  360.   Thanks to dzr@world.std.com for contributions here.
  361.  
  362. _____
  363. <1.6> Why is identification (un)stable on the internet?
  364.  
  365.   Generally, identity is an amorphous and almost nonexistent concept
  366.   on the Internet for a variety of reasons.  One is the inherent
  367.   fluidity of `cyberspace' where people emerge and submerge
  368.   frequently, and absences are not readily noted in the `community'. 
  369.   Most people remember faces and voices, the primary means of casual
  370.   identification in the 'real world'.  The arbitary and cryptic 
  371.   sequences of letters and digits comprising most email addresses are
  372.   not particularly noticeable or memorable and far from a unique
  373.   identification of an individual, who may use multiple accounts on
  374.   multiple machines anywhere in the world.
  375.  
  376.   Currently internet users do not really have any great assurances
  377.   that the messages in email and USENET are from who they appear to
  378.   be. A person's mailing address is far from an identification of an
  379.   individual.  
  380.   
  381.   - Anyone with access to the account, e.g. they know the password,
  382.     either legitimately or otherwise, can send mail with that address
  383.     in the From: line.
  384.   
  385.   - Email addresses for an individual tend to change frequently as
  386.     they switch jobs or make moves inside their organizations. 
  387.  
  388.   - As part of current mailing protocol standards, forging the From:
  389.     line in mail messages is a fairly trivial operation for many
  390.     hackers.
  391.     
  392.   The status and path information prepended to messages by
  393.   intermediate hosts is generally unforgeable. In general, while
  394.   possible, forgeries are fairly rare on most newsgroups and in
  395.   email.  Besides these pathological cases abve there are many basic
  396.   problems with today's internet protocols affecting identification
  397.   on the internet:
  398.  
  399.   - Internet mail standards, described in RFC-822, are still evolving
  400.     rapidly and not entirely orderly.  For example, standards for
  401.     mail address `munging' or `parsing' tend to vary slightly between
  402.     sites, particularly with gateways and embedded addresses, and 
  403.     frequently mean the difference between finding addresses and 
  404.     bouncing mail.
  405.   
  406.   - Domain names and computer names are frequently changed at sites,
  407.     and there are delays in the propagation of this data.
  408.   
  409.   - Addresses cannot be resolved when certain critical computers
  410.     crash, such as the receiving computer or other computers involved
  411.     in resolving names into addresses called `nameservers'. 
  412.   
  413.   - A whole slew of problems is associated with  `nameservers'; if
  414.     they are not updated they will not find name addresses, and even
  415.     the operation of what constitutes `updating' has different
  416.     interpretations at different sites.
  417.   
  418.   The current internet mailing and addressing protocols are slightly
  419.   anachronistic in that they were created when the network was
  420.   somewhat obscure and not widespread, with only a fraction of the
  421.   traffic it now sees.  Today a large proportion of internet traffic
  422.   is email, comprising millions of messages.
  423.  
  424. _____
  425. <1.7> What is the future of identification on the internet?
  426.  
  427.   Some new technologies and standards are introducing facial images
  428.   and voice messages into mail and these will improve the sense of
  429.   community that comes from the familiarity of identification.
  430.   However, they are not currently widespread, require large amounts
  431.   of data transfer, standardized software, and make some compromises
  432.   in privacy.
  433.  
  434.   Promising new cryptographic techniques may make `digital signatures'
  435.   and `digital authentication' common.  Also, the trend in USENET 
  436.   standards is toward greater authentication of posted information. 
  437.   On the other hand, advances in ensuring anonymity (such as 
  438.   remailers) are forthcoming. (See the sections on these topics.)
  439.  
  440.  
  441. PRIVACY
  442. =======
  443.  
  444. _____
  445. <2.1> What is `privacy' on the internet?
  446.  
  447.   Generally, while `privacy' has multiple connotations in society and
  448.   perhaps even more on the internet, in cyberspace most take it to
  449.   mean that you have exclusive use and access to your account and the
  450.   data stored on and and directed to it (such as email), and you do
  451.   not encounter arbitrary restrictions or searches.  In other words, 
  452.   others may obtain data associated with your account, but not
  453.   without your permission.  These ideas are probably both fairly
  454.   limiting and liberal in their scope in what most internet users
  455.   consider their private domains.  Some users don't expect or want
  456.   any privacy, some expect and demand it.
  457.  
  458. _____
  459. <2.2> Why is privacy (un)important on the internet?
  460.  
  461.   This is a somewhat debatable and inflammatory topic, arousing
  462.   passionate opinions.  On the internet, some take privacy for
  463.   granted and are rudely surprised to find it tenuous or nonexistent.
  464.   Most governments have rules that protect privacy (such as the
  465.   illegal search and seizure clause of the U.S. Constitution, adopted
  466.   by others) but have many that are antithetical to it (such as laws
  467.   prohibiting secret communications or allowing wiretapping).  These
  468.   rules generally carry over to the internet with few specific rules
  469.   governing it.  However, the legal repercussions of the global
  470.   internet are still largely unknown and untested (i.e. no strong
  471.   legal precedents and court cases).  The fact that internet traffic
  472.   frequently passes past international boundaries, and is not
  473.   centrally managed, significantly complicates and strongly
  474.   discourages its overall regulation.
  475.  
  476. _____
  477. <2.3> How (in)secure are internet networks?
  478.  
  479.   - `Theoretically' people at any site in the chain of sites with
  480.     access to hardware and network media that transmits data over the
  481.     Internet could potentially monitor or archive it. However, the
  482.     sheer volume and general 'noise' inherent to this data makes
  483.     these scenarios highly improbable, even by government agencies
  484.     with supposedly vast funding and resources, although a
  485.     sophisticated science dedicated to filtering data can be
  486.     exploited for this role.
  487.  
  488.   - Internet communications is extremely vulnerable to `traffic 
  489.     analysis,' a technique where the content of messages is not
  490.     uncovered but information on the source and destination addresses
  491.     can effectively suggest its meaning.  For example, knowing that
  492.     certain people are on certain mailing lists exposes their 
  493.     interests.
  494.   
  495.   - Technologies exist to `tap' magnetic fields given off by
  496.     electrical wires without detection.  Less obscurely, any machine
  497.     with a network connection is a potential station for traffic
  498.     detection, but this scenario requires knowledge and access to
  499.     very low-level hardware (the network card) to pursue, if even
  500.     possible.
  501.   
  502.   - A company Network General Inc. is one of many that manufactures
  503.     and markets sophisticated network monitoring tools that can
  504.     `filter' and read packets by arbitrary criteria for
  505.     troubleshooting purposes, but the cost of this type of device is
  506.     prohibitive for casual use.
  507.  
  508.   Known instances of the above types of security breaches at a major
  509.   scale (such as at network hubs) are very rare. The greatest risks
  510.   tend to emerge locally.  Note that all these approaches are almost
  511.   completely defused with the use of cryptography.  (See the section
  512.   on that subject.)
  513.   
  514.   The following text was excerpted from the Computer Systems 
  515.   Laboratory (CSL) Bulletin for July 1993, entitled, "Connecting to 
  516.   the Internet: Security Considerations." Ironically, one paragraph
  517.   specifically states the admitted security concerns for unencrypted
  518.   traffic:
  519.  
  520.   > Ease of Spying and Spoofing:  The vast majority of Internet 
  521.   > traffic is unencrypted and therefore easily readable.  As a 
  522.   > result, e-mail, passwords, and file transfers can be monitored 
  523.   > and captured using readily available software.  Intruders have 
  524.   > been known to monitor connections to well-known Internet sites 
  525.   > for the purpose of gaining information that would allow them to 
  526.   > crack security or to steal valuable information.  This 
  527.   > information sometimes permits intruders to spoof legitimate 
  528.   > connections, i.e., trick system security into permitting normally 
  529.   > disallowed network connections.
  530.  
  531.   For more information on the CSL Laboratory see the 
  532.  
  533.   Thanks to P. Ferguson <fergp@sytex.com> for contributions to this 
  534.   section.
  535.  
  536. _____
  537. <2.4> How (in)secure is my account?
  538.  
  539.   By default, not very.  There are a multitude of factors that may
  540.   reinforce or compromise aspects of your privacy on the internet. 
  541.   First, your account must be secure from other users. The universal
  542.   system is to use a password, but if it is `weak' (i.e. easy to
  543.   guess) this security is significantly diminished.  Somewhat
  544.   surprisingly and frighteningly to some, certain users of the
  545.   system, particularly the administrator, generally have unlimited
  546.   access regardless of passwords, and may grant that access to
  547.   others.  This means that they may read any file in your account
  548.   without detection.
  549.  
  550.   Furthermore, not universally known, most UNIX systems keep fairly
  551.   extensive accounting records of when and where you logged in, what
  552.   commands you execute, and when they are executed (in fact, login
  553.   information is usually public). Most features of this `auditing' or
  554.    `process accounting' information are enabled by default after the
  555.   initial installation and the system administrator may customize it
  556.   to strengthen or weaken it to satisfy performance or privacy aims. 
  557.   This information is frequently consulted for troubleshooting
  558.   purposes and may otherwise be ignored.  This data tracks
  559.   unsuccessful login attempts and other `suspicious' activities on
  560.   the system. A traditional part of the UNIX system that tracks user
  561.   commands is easily circumvented by the user with the use of
  562.   symbolic links (described in `man ln').
  563.   
  564.   UNIX implementations vary widely particularly in tracking features
  565.   and new sophisticated mechanisms are introduced by companies
  566.   regularly. Typically system adminstrators augment the basic UNIX
  567.   functionality with public-domain programs and locally-developed
  568.   tools for monitoring, and use them only to isolate `suspicious'
  569.   activity as it arises (e.g. remote accesses to the `passwd' file,
  570.   incorrect login attempts, remote connection attempts, etc.).
  571.   
  572.   Generally, you should expect little privacy on your account for
  573.   various reasons:
  574.   
  575.   - Potentially, every keystroke you type could be intercepted by
  576.     someone else. 
  577.  
  578.   - System administrators make extensive backups that are completely
  579.     invisible to users which may record the states of an account over
  580.     many weeks. 
  581.  
  582.   - Erased files can, under many operating systems, be undeleted. 
  583.  
  584.   - Most automated services keep logs of use for troubleshooting or
  585.     otherwise; for example FTP sites usually log the commands and
  586.     record the domain originations of users, including anonymous
  587.     ones.
  588.  
  589.   - Some software exacerbates these problems.  See the section on
  590.     ``X Windows (in)security''.
  591.  
  592.   Indepedent of malevolent administrators are fellow users, a much
  593.   more commonly harmful threat. There are multiple ways to help
  594.   ensure that your account will not be accessed by others, and
  595.   compromises can often be traced to failures in these guidelines:
  596.  
  597.   - Choose a secure password.  Change it periodically.
  598.   - Make sure to logout always.
  599.   - Do not leave a machine unattended for long.
  600.   - Make sure no one watches you when you type your password.
  601.   - Avoid password references in email.
  602.   - Be conservative in the use of the .rhost file.
  603.   - Use utilities like `xlock' to protect a station, but be
  604.     considerate.
  605.  
  606.   Be wary of situations where you think you should supply your
  607.   password.  There are only several basic situations where UNIX
  608.   prompts you for a password: when you are logging in to a system or
  609.   changing your password.  Situations can arise in which prompts for
  610.   passwords are forged by other users, especially in cases where you
  611.   are talking to them (such as Internet Relay Chat).  Also, be aware
  612.   that forged login screens are one method to illegitimately obtain 
  613.   passwords.
  614.  
  615.  
  616.   (Thanks to Jim Mattson <mattson@cs.ucsd.edu> for contributions
  617.   here.)
  618.  
  619. _____
  620. <2.5> How (in)secure are my files and directories?
  621.  
  622.   The most important privacy considerations are related to file
  623.   rights, and many lapses can be traced to their misunderstood nature
  624.   or haphazard maintenance. Be aware of the rights associated with
  625.   your files and directories in UNIX. If the `x' (`execute') right on
  626.   your parent directory is off for users, groups, and other, these
  627.   users cannot gain information on anything in your directories. 
  628.   Anything less may allow others to read, change, or even delete
  629.   files in your home directory. The rights on a directory supersede
  630.   the rights associated with files in that directory. For a
  631.   directory, `x' means that access to the files (or subdirectories)
  632.   in the directory is possible -- if you know their names.  To list
  633.   the contents of the directory, however, requires the `r' right.
  634.  
  635.   By default most accounts are accessable only to the owner, but the
  636.   initial configuration varies between sites based on administrator
  637.   preference.  The default file mode specifies the initial rights
  638.   associated with newly created files, and can be set in the shell
  639.   with `umask'.  The details of rights implementations tend to vary
  640.   between versions of UNIX.  Consult man pages on `chmod' and `ls'.
  641.  
  642.   Examples
  643.   --------
  644.  
  645.     traver.lance % ls -ld ~
  646.     drwx------ 15 ld231782     1536 Jan 31 21:22 /users/ld231782/
  647.  
  648.   Here is a listing of the rights associated with a user's home
  649.   directory, denoted by `~'.  The columns at the left identify what
  650.   rights are available. The first column identifies the entry as a
  651.   directory, and the next three columns mean that read, write, and
  652.   execute rights, respectively, are permitted for that user.  For
  653.   directories, the `x' right means that contents (file and
  654.   subdirectory names) within that directory can be listed. The
  655.   subsequent columns indicate that no other users have any rights to
  656.   anything in the directory tree originating at that point.  They
  657.   can't even `see' any lower files or subdirectories; the hierarchy
  658.   is completely invisible to them.
  659.  
  660.     traver.lance % ls -l msg
  661.     -rw-r--r--  1 ld231782   35661 Jan 29 23:13 msg
  662.     traver.lance % chmod u=rw,g=,o= msg
  663.     traver.lance % ls -l msg
  664.     -rw-------  1 ld231782   35661 Jan 29 23:13 msg
  665.  
  666.   Here the modes on the file `msg' were changed to take away rights
  667.   from `group' and `other'. 
  668.   
  669.   Note that `ls -l <file>' requires both the 'r' right to get the list
  670.   of files and subdirectories, and the 'x' right to access the files
  671.   and subdirectories in order to get their size, etc. For example,
  672.   suppose the directory `foo' has rights dr--r--r--, the following
  673.   is possible:
  674.  
  675.     ls foo
  676.  
  677.   These commands would fail independent of file rights:
  678.   
  679.     ls -l foo
  680.     ls -l foo/file
  681.     cat foo/file
  682.     cd foo
  683.  
  684.   If the directory `foo' has rights d--x--x--x, the following are
  685.   possible if it is known beforehand that `foo' contains an 'r'
  686.   readable file named `file':
  687.   
  688.     ls -l foo/file
  689.     cat foo/file
  690.     cd foo
  691.   
  692.   The following commands fail:
  693.   
  694.     ls foo
  695.     ls -l foo
  696.   
  697.  
  698.   (Thanks to Uwe Waldmann <uwe@mpi-sb.mpg.de> for contributions here.)
  699.  
  700. _____
  701. <2.6> How (in)secure is X Windows?
  702.  
  703.   X Windows is the primary software developed by the MIT Athena
  704.   project (1983-1991) which was funded by commercial grants 
  705.   primarily from DEC and IBM to develop applications to harness the 
  706.   power of networks in enhancing computational tasks, particularly the 
  707.   human-computer interface.  The software implements a client-server 
  708.   interface to a computer via graphical windows. In this case the 
  709.   `client' is the application requesting or utilizing  graphical 
  710.   resources (such as windows or a mouse) and the `server' is the 
  711.   machine that provides them.  In many situations the client is an 
  712.   application program running on the same machine as the server.
  713.  
  714.   The great utility of X Windows comes from its complete dissociation
  715.   of the client and server so that windows may be `broadcast' to a
  716.   server at a remote location from the  client. Unfortunately this
  717.   dynamic power also introduces many deep, intricate, and complicated
  718.   security considerations.  The primary security and privacy issue
  719.   associated with X Windows is that much more sensitive data may be
  720.   sent over a network, and over wider regions, than in the case where
  721.   the human is situated near the host computer.  Currently there is
  722.   no encryption of data such as screen updates and keystrokes in X
  723.   Windows.
  724.  
  725.   Due to either intentional design decisions or unintentional design
  726.   flaws, early versions of the X Window system are extremely
  727.   insecure (the decision may have been made not to attempt to
  728.   overcome existing vulnerabiliies in the Unix system). Anyone with
  729.   an account on the server machine can disrupt that display or read
  730.   it electronically based on access to the device unix:0.0 by any
  731.   regular user.  There are no protections from this type of access
  732.   in these versions.  The problem arises because the security is 
  733.   completely based on machine addresses rather than users, such that
  734.   any user at a `trusted' machine is himself trusted. Quoting from X
  735.   documentation (man Xsecurity):
  736.   
  737.   > Any client on a host in the host access control list is allowed
  738.   > access to the X server. This system can work reasonably well in
  739.   > an environment where everyone trusts everyone, or when only a
  740.   > single person can log into a given machine...This system does not
  741.   > work well when multiple people can log in to a single machine and
  742.   > mutual trust does not exist. 
  743.   
  744.   With the access control list, the `xhost' command may prevent some
  745.   naive attempts (i.e. those other than the direct-access unix:0.0
  746.   evasion); the syntax as typed on the host machine is ``xhost
  747.   +[name]'' where [name] is the domain name or internet address of an
  748.   authorized client machine. By default clients running nonlocal to
  749.   the host are disabled.  Public domain programs to disrupt a display
  750.   momentarily (such as 'flip' or slowly mirror the screen image, or
  751.   cause pixels to 'melt' down to the bottom) have been circulating on
  752.   the internet among hackers for several years and played as pranks
  753.   on unsuspecting or inexperienced users.  Much more serious security
  754.   breaches are conceivable from similar mechanisms exploiting this
  755.   inherent weaknesses.  (The minimal, easily-bypassed `trusted'
  756.   security mode of `xhost' has been jokingly referred to as ``X
  757.   Hanging Open, Security Terrible.''). 
  758.  
  759.   New versions of the X Window system (X11R5 and higher) by default 
  760.   make server access as secure as the file system using a .Xauthority
  761.   file and 'magic cookies'.  Remote machines must have a code in the
  762.   .Xauthority file in the home directory that matches the code
  763.   allowed by the server.  Many older programs and even new
  764.   vendor-supplied code does not support or is incompatible with
  765.   `magic cookies'. The basic magic cookie mechanism is vulnerable to
  766.   monitoring techniques described earlier because no encryption of
  767.   keys occurs in transmission.  X11R5 also includes other
  768.   sophisticated encryption mechanisms.  Try `man Xsecurity' to find
  769.   out what is supported at your site.  Even though improved security 
  770.   mechanisms have been available in X Windows since ~1990, local
  771.   sites often update this software infrequently because installation
  772.   is extremely complex.
  773.  
  774.  
  775.   (Thanks to Marc Vanheyningen <mvanheyn@whale.cs.indiana.edu>, 
  776.   Jim Mattson <mattson@cs.ucsd.edu>, and Bill Marshall
  777.   <marshall@cs.iastate.edu> for contributions here.)
  778.  
  779. _____
  780. <2.7> How (in)secure is my email?
  781.  
  782.   By default, not very.  The characters that you are reading are
  783.   almost certainly encoded in ASCII, the American Standard Code for
  784.   Information Interchange that maps alphabetic and symbolic
  785.   characters onto numeric codes and vice versa.  Virtually every
  786.   computer system uses this code, and if not, has ways of converting
  787.   to and from it.  When you write a mail message, by default it is
  788.   being sent in ASCII, and since the standard is virtually
  789.   universal, there is no intrinsic privacy.  Despite milleniums worth
  790.   of accumulated cryptographic knowledge, cryptographic technologies
  791.   are only recently being established that afford high priority to
  792.   privacy as a primary criteria in computer and network design.  Some
  793.   potential pitfalls in privacy are as follows:
  794.  
  795.   - The most serious threats are instances of immature or unscrupulous
  796.     system operators reading private mail in the `spool files' at a
  797.     local site (i.e. at the source or destination of the message),
  798.     such as a university. 
  799.   
  800.   - System administrators may also release files to law enforcement
  801.     agencies, but conventions and protocols for warrants involving
  802.     computer searches have still not been strongly established and
  803.     tested legally.
  804.  
  805.   - Note that bounced messages go to postmasters at a given site in
  806.     their entirety.  This means that if you address mail with an
  807.     incorrect address it has a good chance of being seen by a human
  808.     other than the recipient.
  809.  
  810.   - Typically new user accounts are always set up such that the local
  811.     mail directory is private, but this is not guaranteed and can be
  812.     overridden.
  813.  
  814.   - Finally, be aware that some mailing lists (email addresses of 
  815.     everyone on a list) are actually publicly accessable via mail 
  816.     routing software mechanisms.  This `feature' can be disabled.
  817.  
  818.   Most potential compromises in email privacy can be thoroughly
  819.   avoided with the use of strong end-to-end cryptography, which has
  820.   its own set of caveats (for example, unscrupulous administrators
  821.   may still be a threat if the encryption site is shared or
  822.   nonlocal).  See the sections on ``email privacy'' and ``email
  823.   policies.''
  824.  
  825. _____
  826. <2.8> How am I (not) liable for my email and postings?
  827.  
  828.   As punishment or whatever, your system administrator can revoke
  829.   certain `privileges' such as emailing, USENET posting or reading
  830.   certain groups, file transferring, remote communications, or
  831.   generally any subset of capabilities available from your account. 
  832.   This all is completely at the discretion of the local administrator
  833.   and under the procedures followed at a particular site, which in
  834.   many cases are haphazard and crisis-oriented.  Currently there are
  835.   virtually no widespread, uniform guidelines or procedures for
  836.   restricting use to any internet services, and local administrators
  837.   are free to make arbitrary decisions on access.
  838.  
  839.   Today punitive measures are regularly applied in various situations.
  840.   In the typical scenario complaint(s) reach a system adminstrator
  841.   regarding abuses by a user, usually but not necessarily preceded by
  842.   complaints to the user in email, regarding that person's
  843.   objectionable email or postings.  `abusive' posters to USENET are
  844.   usually first given admonitions from their system administrators as
  845.   urged by others on the `net'. (The debate persists endlessly on
  846.   many newsgroups whether this is also used  as a questionable means
  847.   of attacking or silencing `harmless crackpots' or censoring
  848.   unpopular opinions.)
  849.   
  850.   System administrators at remote sites regularly cooperate to
  851.   'squelch' severe cases of abuse.  In general, however, by tradition
  852.   Usenet readers are remarkably tolerant of diverse views and uses of
  853.   the system, but a colorful vocabularly of slang helps describe
  854.   their alternatives when this patience is sapped: the options
  855.   wielded by the individual user are to simply advance to the next
  856.   message (referred to as ``hitting the `n' key''), or to `plonk'
  857.   annoying posters (according to the Hacker's Dictionary, the sound a
  858.   jerk makes at the end of a fall to the bottom of a kill file).
  859.  
  860.   In cases where punitive actions are applied, generally system
  861.   administrators are least likely to restrict email.  USENET postings
  862.   are much more commonly restricted, either to individual users or 
  863.   entire groups (such as a university campus).  Restrictions are most
  864.   commonly associated with the following `abuses':
  865.  
  866.   - harassing or threatening notes, `email terrorism'
  867.   - illegal uses, e.g. piracy or propagation of copyrighted material
  868.   - `ad hominem' attacks, i.e. insulting the reputation of the
  869.     poster instead of citing the content of the message
  870.   - intentional or extreme vulgarity and offensiveness
  871.   - inappropriate postings, esp. binary files in regular groups
  872.     `mail-bombing': inundating mail boxes with numerous or massive
  873.     files
  874.  
  875.   Major problems originate from lack of distinctions in private and
  876.   official email or postings.  Most users have internet access via
  877.   accounts at businesses or universities and their activities on the
  878.   internet can be construed as representative of their parent
  879.   organizations. Many people put disclaimers in their `signatures' in
  880.   an attempt dissociate their identity and activities from parent
  881.   organizations as a precaution. A recent visible political case
  882.   involves the privacy of electronic mail  written by White House
  883.   staff members of the Bush administration.  Following are some
  884.   guidelines:
  885.  
  886.   - Acquaint yourself with your company or university policy.
  887.   - If possible, avoid use of your company email address for private
  888.     communication.
  889.   - Use a disclaimer.
  890.   - Keep a low profile (avoid `flamewars' or simply don't post).
  891.   - Avoid posting information that could be  construed to be
  892.     proprietary or `internal'.
  893.  
  894.   Famous Usenet contributor Carl Kadie and associates maintain an 
  895.   archive tracking user liability as part of the Computers and 
  896.   Academic Freedom project (see also the section on ``internet use 
  897.   policies''). The following references are available from 
  898.   ftp.eff.org:
  899.  
  900.   /pub/academic/banned.1991
  901.   /pub/academic/banned.1992
  902.   ---
  903.     Computer material that was banned/challenged in academia in 1991
  904.     and 1992 including USENET hierarchies.
  905.  
  906.   /pub/academic/cases
  907.   ---
  908.     This is an on-line collection of information about specific
  909.     computers and academic freedom cases. File README is a detailed
  910.     description of the items in the directory.
  911.  
  912.   /pub/academic/faq/netnews.liability
  913.   ---
  914.     Notes on university liability for Usenet.
  915.  
  916.  
  917. ______
  918. <2.9> Who is my sysadmin?  What does s/he know about me?
  919.  
  920.   The requirements and screening for getting a system administration
  921.   job (and thereby access to all information on a system) vary widely
  922.   between sites and are sometimes frighteningly lax, especially at
  923.   universities.  Many UNIX systems at universities are largely
  924.   managed by undergraduates with a background in computing and often
  925.   `hacking'.  In general, commercial and industrial sites are more
  926.   strict on qualifications and background, and government sites are
  927.   extremely strict.
  928.  
  929.   The system adminstrator (root user) can monitor what commands you
  930.   used and at what times.  S/he may have a record (backups) of files
  931.   on your account over a few weeks. S/he can monitor when you send
  932.   email or post USENET messages, and potentially read either.  S/he
  933.   may have access to records indicating what hosts you are using,
  934.   both locally and elsewhere.  Administrators sometimes employ
  935.   specialized programs to  track `strange' or `unusual' activity,
  936.   which can potentially be misused.
  937.  
  938. ______
  939. <2.10> Why is privacy (un)stable on the internet?
  940.  
  941.   For the numerous reasons listed above, privacy should not be an
  942.   expectation with current use of the internet.  Furthermore, large
  943.   parts of the internet are funded by the U.S. NSF (National Science
  944.   Foundation) which places certain restrictions on its use (such as
  945.   prohibiting commercial use).  Some high-level officials in this and
  946.   other government agencies may be opposed to emerging techniques to
  947.   guarantee privacy (such as encryption and anonymous services).
  948.  
  949.   Historically the major threats to privacy on the internet have been
  950.   local. Perhaps the most common example of this are the widespread
  951.   occurrences of university administrators refusing to carry some
  952.   portion of USENET newsgroups labelled as `pornographic'. The
  953.   `alternative' hierarchy in the USENET system, which has virtually
  954.   no restrictions on propagation and new group creation, is
  955.   frequently targeted (although this material may appear anywhere).
  956.  
  957.   From the global point of view traffic is generally completely
  958.   unimpeded on the internet and only the most egregious offenders
  959.   are pursued.  For example, verbatim transcriptions of copyrighted
  960.   material (such as newspaper or magazine articles) are posted to
  961.   USENET with regularity without major consequences (some email
  962.   complaints may ensue).  More astonishing to some is that currently
  963.   significant portions of USENET traffic, and less so internet
  964.   traffic, is comprised of sexually-explicit digitized images almost
  965.   entirely originating from copyrighted material (newsgroups such as
  966.   `alt.sex' regularly have the highest traffic).
  967.   
  968. ______
  969. <2.11> What is the future of privacy on the internet?
  970.  
  971.   Some argue that the internet currently has an adequate or
  972.   appropriate level of privacy.  Others will argue that as a
  973.   prototype for future global networks it has woefully inadequate
  974.   safeguards.  The internet is growing to become a completely global,
  975.   international superhighway for data, and this traffic will
  976.   inevitably entail data such as voice messages, postal mail, and
  977.   many other items of extremely personal nature. Computer items that
  978.   many people consider completely private (such as their local hard
  979.   drives) will literally be inches from global network connections.
  980.   Also, sensitive industrial and business information is exchanged
  981.   over networks currently and this volume may conceivably merge with
  982.   the internet.
  983.   
  984.   Most would agree that, for these basic but sensitive uses of the
  985.   internet, no significant mechanisms are currently in place to
  986.   ensure much privacy. New standards are calling for uniform
  987.   introduction of `privacy enhanced mail' (PEM) which uses encryption
  988.   technologies to ensure privacy, so that privacy protection is
  989.   automatic, and may significantly improve safeguards.
  990.  
  991.   The same technology that can be extremely destructive to privacy
  992.   (such as with surreptitious surveilance) can be overwhelmingly
  993.   effective in protecting  it (e.g. with encryption). Some government
  994.   agencies are opposed to unlimited privacy in general, and believe
  995.   that it should lawfully be forfeited in cases of criminal conduct
  996.   (e.g. court-authorized wiretapping).  However, powerful new
  997.   technologies to protect privacy on computers are becoming
  998.   increasingly popular, provoking some to say that ``the cat is out
  999.   of the bag'' and the ``genie can't be put back in the bottle''.  In
  1000.   less idiomatic terms, they believe that the spread of strong
  1001.   cryptography is already underway will be socially and technically
  1002.   unstoppable.
  1003.   
  1004.   To date, no feasible system that guarantees both secure
  1005.   communication and government oversight has been proposed (the two
  1006.   goals are largely incompatible). Proposals for ``registration'' of
  1007.   secret keys (by D. Denning on sci.crypt and the Clipper chip proposal, 
  1008.   for example) have been met with hot controversy at best and ridicule 
  1009.   and derision at worst, mainly because of concerns for the right to 
  1010.   privacy and objections of inherent feasibility.  Electronic privacy 
  1011.   issues, and particularly the proper roles of networks and the 
  1012.   internet, will foreseeably become highly visible and explosive over 
  1013.   the next few years.
  1014.  
  1015.  
  1016. ANONYMITY
  1017. =========
  1018.  
  1019. _____
  1020. <3.1> What is `anonymity' on the internet?
  1021.  
  1022.   Simply stated, anonymity is the absence of identity, the ultimate in
  1023.   privacy. However, there are several variations on this simple theme.  
  1024.   A person may wish to be consistently identified by a certain pseudonym 
  1025.   or `handle' and establish a reputation under it in some area, 
  1026.   providing pseudo-anonymity.  A person may wish to be completely 
  1027.   untraceable for a single one-way message (a sort of `hit-and-run'). 
  1028.   Or, a person may wish to be openly anonymous but carry on a 
  1029.   conversation with others (with either known or anonymous identities) 
  1030.   via an `anonymous return address'.  A user may wish to appear as a
  1031.   `regular user' but actually be untraceable.  Sometimes a user wishes 
  1032.   to hide who he is sending mail to (in addition to the message itself). 
  1033.   The anonymous item itself may be directed at individuals or groups.  
  1034.   A user may wish to access some service and hide all signs of the 
  1035.   association. 
  1036.   
  1037.   All of these uses are feasible on the internet but are currently
  1038.   tricky to carry out in practice, because of all the tracking
  1039.   mechanisms inherent to operating systems and network protocols. 
  1040.   Officials of the NSF and other government agencies may be opposed to 
  1041.   any of these uses because of the potential for abuse.  Nevertheless, 
  1042.   the inherent facelessness of large networks will always guarantee a 
  1043.   certain element of anonymity.
  1044.  
  1045. _____
  1046. <3.2> Why is `anonymity' (un)important on the internet?
  1047.  
  1048.   Anonymity is another powerful tool that can be beneficial or
  1049.   problematic depending on its use.  Arguably absence of
  1050.   identification is important as the presence of it.  It may be the
  1051.   case that many strong benefits from electronic anonymity will be
  1052.   discovered that were unforeseen and unpredicted, because true
  1053.   anonymity has been historically very difficult to establish.
  1054.  
  1055.   One can use anonymity to make personal statements to a colleague
  1056.   that would sabotage a relationship if stated openly (such as
  1057.   employer/employee scenarios).  One can use it to pass information 
  1058.   and evade any threat of direct retribution.  For example,
  1059.   `whistleblowers' reporting on government abuses (economic, social,
  1060.   or political) can bring issues to light without fear of stigma or
  1061.   retaliation. Sensitive, personal, potentially damaging information
  1062.   is often posted to some USENET groups, a risky situation where
  1063.   anonymity allows conversations to be carried on completely
  1064.   independent of the identities of the participants.  Some police
  1065.   departments run phone services that allow anonymous reporting of
  1066.   crimes; such uses would be straightforward on the network.
  1067.   Anonymity can be extremely important and potentially lifesaving
  1068.   diagnoses and discussions carried out on medical or theurapeutic   
  1069.   newsgroups. Unfortunately, extortion and harassment become more
  1070.   insidious with assurances of anonymity.
  1071.  
  1072. _____
  1073. <3.3> How can anonymity be protected on the internet?
  1074.  
  1075.   The chief means, as alluded to above, are masking identities in
  1076.   email and posting. However, anonymous accounts (public accounts as
  1077.   accessable and anonymous as e.g. public telephones) may be
  1078.   effective as well, but this use is generally not officially
  1079.   supported and even discouraged by some system adminstrators and NSF
  1080.   guidelines.  The nonuniformity in the requirements of obtaining
  1081.   accounts at different sites and institutions makes anonymous
  1082.   accounts generally difficult to obtain to the public at large.
  1083.  
  1084.   Many communications protocols are inherently detrimental to
  1085.   anonymity.  Virtually every protocol in existence currently
  1086.   contains information on both sender and receiver in every packet.
  1087.   New communications protocols will likely develop that guarantee
  1088.   much higher degrees of secure anonymous communication.
  1089.  
  1090. _____
  1091. <3.4> What is `anonymous mail'?
  1092.  
  1093.   One approach to `anonymizing' mail has been to set up an `anonymous
  1094.   server' that, when activated by email to its address, responds by
  1095.   allocating and supplying an `anonymous ID' that is unique to the
  1096.   person requesting it (based on his email address).  This will vary
  1097.   for the same person for different machine address email
  1098.   originations. To send anonymous mail, the user sends email directed
  1099.   to the server containing the final destination. The server
  1100.   `anonymizes' the message by stripping of identification information
  1101.   and forwards the message, which appears to originate from the
  1102.   anonymous server only from the corresponding anonymous user id. 
  1103.   This is the `interactive' use of anonymity or pseudonymity
  1104.   mentioned above.
  1105.  
  1106.   Another more `fringe' approach is to run a `cypherpunk' remailer
  1107.   from a regular user account (no root system privileges are
  1108.   required).  These are currently being pioneered by Eric Hughes and
  1109.   Hal Finney <hal@alumni.caltech.edu>.  The operator runs a process on
  1110.   a machine that anonymizes mail sent to him with certain
  1111.   characteristics that distinguish it from his regular incoming mail
  1112.   (typically fields in the header).  One has been implemented as a 
  1113.   PERL script running on UNIX.  Several of these are in existence
  1114.   currently but sites and software currently somewhat unstable; they 
  1115.   may be in operation outside of system administrator knowledge.
  1116.   The remailers don't generally support anonymous return addresses. 
  1117.   Mail that is incorrectly addressed is received by the operator. 
  1118.   Generally the user of the remailer has to disavow any
  1119.   responsibility for the messages forwarded through his system,
  1120.   although actually may be held liable regardless.
  1121.  
  1122.   These approaches have several serious disadvantages and weaknesses:
  1123.   
  1124.   - The anonymous server approach requires maintaining a mapping of
  1125.     anonymous ID's to real addresses that must be maintained
  1126.     indefinitely.  One alternative is to allow `deallocation' of
  1127.     aliases at the request of the user, but this has not been
  1128.     implemented yet.
  1129.  
  1130.   - Although an unlikely scenario, traffic to any of these sites could
  1131.     conceivably be monitored from the `outside', necessitating the
  1132.     use of cryptography for basic protection,.
  1133.  
  1134.   - Local administrators can shut them down either out of caprice or
  1135.     under pressure from local, network, or government agencies.
  1136.   
  1137.   - Unscrupulous providers of the services can monitor the traffic
  1138.     that goes through them.
  1139.  
  1140.   - Some remailers keep logs that may be inspected. 
  1141.  
  1142.   - The cypherpunk approach tends to be highly unstable because these
  1143.     operators are basically network users who do not own the
  1144.     equipment and are accountable  to their own system
  1145.     administrators, who may be unaware of the use and unsympathetic
  1146.     to the philosophy of anonymity when the operation is discovered,
  1147.     regarding it as illicit use. 
  1148.  
  1149.   - In all cases, a high degree of trust is placed in the anonymous
  1150.     server operator by the user.
  1151.  
  1152.   Currently the most direct route to anonymity involves using SMTP
  1153.   protocols to submit a message directly to a server with arbitrary
  1154.   field information.  This practice, not uncommon to hackers, and the
  1155.   approach used by remailers, is generally viewed with hostility by
  1156.   most system administrators.  Information in the header routing data
  1157.   and logs of network port connection information may be retained
  1158.   that can be used to track the originating site.  In practice, this
  1159.   is generally infeasible and rarely carried out.  Some
  1160.   administrators on the network will contact local administrators to
  1161.   request a message be tracked and its writer admonished or punished
  1162.   more severely (such as revoking the account), all of this actually
  1163.   happening occasionally but infrequently.
  1164.  
  1165. _____
  1166. <3.5> What is `anonymous posting'?
  1167.  
  1168.   Anonymous servers have been established as well for anonymous Usenet
  1169.   posting with all the associated caveats above (monitored traffic,
  1170.   capricious or risky local circumstances, logging).  Make sure to
  1171.   test the system at least once by e.g. anonymous posting to
  1172.   misc.test (however some operators don't recommend this because many
  1173.   sites `autorespond' to test messages, possibly causing the
  1174.   anonymous server to allocate anonymous IDs for those machines). 
  1175.  
  1176.   Another direct route involves using NNTP protocols to submit a
  1177.   message directly to a newserver with arbitrary field information.
  1178.   This practice, not uncommon to hackers, is also generally viewed
  1179.   with hostility by most system administrators, and similar
  1180.   consequences can ensue.
  1181.  
  1182.   See also:
  1183.   
  1184.   - Anonymity on the Internet FAQ, rtfm.mit.edu:
  1185.     /pub/usenet/news.answers/net-anonymity.
  1186.  
  1187.   - ``Censorship Fights Heat Up on Academic Networks'', W. M.
  1188.     Bulkeley, Wall St. Journal, May 24 1993 p. B1.
  1189.  
  1190.   - ``A Computer Program That Can Censor Electronic Messages Sets
  1191.     Off a Furor'', D. L. Wilson, Chronicle of Higher Education,
  1192.     May 12, 1993 p. A25.
  1193.  
  1194.   - Information Week, May 31 1993 pg. 84 summarizes the Wall St. 
  1195.     Journal article.
  1196.  
  1197. _____
  1198. <3.6> Why is anonymity (un)stable on the internet?
  1199.  
  1200.   As noted, many factors compromise the anonymity currently available
  1201.   to the general internet community, and these services should be
  1202.   used with great caution.  To summarize, the technology is in its
  1203.   infancy and current approaches are unrefined, unreliable, and not
  1204.   completely trustworthy.  No standards have been established and
  1205.   troubling situations of loss of anonymity and bugs in the software
  1206.   are prevalent.  Here are some encountered and potential bugs: 
  1207.   
  1208.   - One anonymous remailer reallocated already allocated anonymous
  1209.     return addresses. 
  1210.   - Others passed signature information embedded in messages
  1211.     unaltered. 
  1212.   - Address resolution problems resulting in anonymized mail bounced
  1213.     to a remailer are common.
  1214.   - Forgeries to the anonymous server itself are a problem, possibly
  1215.     allowing unauthorized users to potentially glean anon ID - email
  1216.     address  mappings in the alias file.  This can be remedied with
  1217.     the use of passwords.
  1218.   - Infinite mail loops are possible with chaining remailers.
  1219.   
  1220.   Source code is being distributed, tested, and refined for these
  1221.   systems, but standards are progressing slowly and weakly.  The
  1222.   field is not likely to improve considerably without official
  1223.   endorsement and action by network agencies.  The whole idea is
  1224.   essentially still in its infancy and viewed with suspicion and
  1225.   distrust by many on the internet, seen as illegitimate or favorable
  1226.   to criminality.  The major objection to anonymity over regular
  1227.   internet use is the perceived lack of `accountability' to system
  1228.   operators, i.e. invulnerability to account restrictions resulting
  1229.   from outside complaints.  System adminstrators at some sites have
  1230.   threatened to filter anonymous news postings generated by the
  1231.   prominent servers from their redistribution flows.  This may only
  1232.   have the effect of encouraging server operators to create less
  1233.   characteristically detectable headers.  Probably the least
  1234.   problematic approach, and the most traditional to Usenet, is for
  1235.   individual users to deal with anonymous mail however they prefer,
  1236.   e.g. ignoring it or filtering it with kill files.
  1237.   
  1238. _____
  1239. <3.7> What is the future of anonymity on the internet?
  1240.  
  1241.   New anonymous protocols effectively serve to significantly increase
  1242.   safeguards of anonymity.  For example, the same mechanism that
  1243.   routes email over multiple hosts, thereby threatening its privacy,
  1244.   can also be used to guarantee it.  In a scheme called `chaining' an
  1245.   anonymous message is passed through multiple anonymous servers
  1246.   before reaching a destination.  In this way generally multiple
  1247.   links of the chain have to be `broken' for security to be
  1248.   compromised. Re-encryption at each link makes this scenario even
  1249.   more unlikely.  Even more significantly the anonymous remailers
  1250.   could be spread over the internet globally so that local weaknesses
  1251.   (such as corrupt governments or legal wiretapping within a nation)
  1252.   would be more unlikely to sacrifice overall security by message
  1253.   tracing.  However, remailers run by corrupt operators are possible.
  1254.   
  1255.   The future of anonymous services on the internet is, at this time,
  1256.   highly uncertain and fraught with peril. While specific groups seem
  1257.   to benefit significantly from anonymous posting capabilities, many
  1258.   feel that unlimited newsgroup scope for anonymous posting is a
  1259.   disruptive and dangerous idea and detracts from discussions in
  1260.   `serious' groups.   The introduction of unlimited group anonymity
  1261.   may have fundamental repercussions on Usenet conventions and
  1262.   distribution mechanisms such as moderated and `alt' groups have had
  1263.   in the past. For example, as part of new group creation, the
  1264.   charter may specify whether `anonymous' posting is (un)welcome. 
  1265.  
  1266.   Nevertheless, the widespread introduction and use of anonymity may
  1267.   be inevitable. Based on traffic statistics, anonymous services are
  1268.   in huge demand. Pervasive and readily available anonymity could
  1269.   carry significant and unforeseen social consequences.  However, if
  1270.   its use is continued to be generally regarded as subversive it may
  1271.   be confined to the underground.  The ramifications of the
  1272.   widespread introduction of anonymity to Usenet are still largely
  1273.   unknown.  It is unclear whether it will provoke signficant amounts
  1274.   of new traffic or, instead of expansion, cause a shift where a
  1275.   greater portion of existing traffic is anonymized.  Conceivably the
  1276.   services could play a role in influencing future mainstream social
  1277.   acceptance of Usenet.
  1278.  
  1279.  
  1280. * * *
  1281.  
  1282. This is Part 1 of the Privacy & Anonymity FAQ, obtained via anonymous
  1283.   FTP to rtfm.mit.edu:/pub/usenet/news.answers/net-privacy/ or 
  1284.   newsgroups news.answers, sci.answers, alt.answers every 21 days.
  1285. Written by L. Detweiler <ld231782@longs.lance.colostate.edu>.
  1286. All rights reserved.
  1287.  
  1288.  
  1289.